规模一直是改善机器学习绩效的主要驱动力,了解规模定律对于可持续模型质量绩效增长,长期资源计划和开发有效的系统基础架构以支持大规模模型的战略规划至关重要。在本文中,我们研究了DLRM样式推荐模型的经验缩放定律,特别是点击率(CTR)。我们观察到具有功率定律的模型质量尺度以及模型大小,数据大小和用于培训的计算量的常数。我们通过比较沿这些轴的不同缩放方案来表征沿三个不同资源维度的缩放效率,即数据,参数和计算。我们表明,对于正在研究的模型体系结构,参数缩放量不超出蒸汽,直到出现较高表现的模型体系结构之前,数据缩放是前进的路径。本研究解决的关键研究问题包括:建议模型规模是否可以可持续地按照规模定律预测?还是我们远离规模定律的预测?缩放的限制是什么?扩展法对长期硬件/系统开发的含义是什么?
translated by 谷歌翻译